ActualidadDestacadaInnovaciónTecnología

Ultralytics anuncia en YOLO Vision 2024 el lanzamiento de YOLO11, su modelo de IA en código abierto en el que han contribuido miles de usuarios

● Ultralytics, compañía norteamericana pionera en el campo de la IA en código abierto, celebró el pasado viernes la tercera edición de este evento mundial para desarrolladores y expertos en desarrollo de IA en código abierto.

● En YOLO Vision 2024 también se habló del techo de cristal presente en el sector tech: solo el 2% de los CEOs en empresas tecnológicas es mujer, aunque este porcentaje ha crecido en los últimos años.

● Durante la jornada se expusieron casos reales de uso de Ultralytics YOLO para detectar y clasificar objetos, animales o personas en tiempo real, como el proyecto capaz de detectar enfermedades en vacas y caballos de carreras, o el sistema que reconoce y avisa en directo sobre la presencia de tiburones en las playas de California.

● Más de un centenar de asistentes presenciales acudieron a YOLO Vision 2024, que se suman a los 2.000 asistentes virtuales que siguieron el evento a través de YouTube y BiliBili.

Madrid, 01 de octubre de 2024. YOLO Vision 2024 (YV24), el encuentro de referencia para desarrolladores y expertos en desarrollo de Inteligencia Artificial de código abierto, celebró su tercera edición el pasado viernes 27 de septiembre en Madrid en el Google for Startups Campus de Madrid. El encuentro reunió a una veintena de expertos mundiales en IA y tecnología, grandes compañías del sector como Intel, NVIDIA, Sony Semiconductor Solutions o Qualcomm, así como a un centenar de asistentes presenciales y otros 2.000 asistentes de forma virtual a través del streaming en YouTube y BiliBili.

YV24 está impulsado por Ultralytics, compañía norteamericana con sede en Estados Unidos, con presencia en España y pionera en el campo de la IA en código abierto y la visión artificial, así como por la desarrolladora de Ultralytics YOLO, un modelo de IA en código abierto que detecta y clasifica objetos en tiempo real a través de visión artificial, de manera similar al funcionamiento del ojo humano.

Como primicia mundial, Glenn Jocher, fundador y CEO de Ultralytics, anunció el lanzamiento de la nueva versión de este modelo, YOLO11, de la que afirmó que “se basa en todos los éxitos que hemos tenido en el pasado, así como en todas las contribuciones de nuestra comunidad de código abierto, una de las más grandes del mundo”. Y es que en el desarrollo de esta nueva versión “han contribuido directamente miles de usuarios que han utilizado los modelos previos y nos han dado feedback sobre lo que podemos implementar y lo que podemos mejorar”.

Jocher también destacó que los modelos de Ultralytics YOLO acumulan más de mil millones de usos distintos, lo que podría traducirse en 506 millones de usos al día o miles de usos por segundo”. En cuanto al uso que se da a Ultralytics YOLO, aseguró que “depende completamente de las necesidades del usuario o del tipo de aplicación. Si eres médico y quieres escanear automáticamente los componentes de una radiografía, puedes hacerlo con YOLO. Si tienes una cafetería y quieres contar cuántas personas pasan por tu puerta o si quieres obtener datos como su edad, YOLO te permitirá hacer todo eso y mucho más”.

Análisis del techo de cristal en el sector tech en YOLO Vision 2024

Una de las mesas redondas más esperadas durante el transcurso de YOLO Vision 2024 fue el panel ‘Breaking Codes: Shattering the Glass Ceiling in AI Leadership’ sobre el papel de la mujer en el liderazgo de las compañías tecnológicas, un sector predominantemente masculino tal y como señalan las cifras. Sólo hay un 2% de mujeres CEO en el sector tech, y hay que tener en cuenta que este porcentaje ha crecido durante los últimos años, por lo que partimos de baremos realmente bajos”, reveló Christina Stathopoulos, fundadora de Dare to Data, quien también señaló que no ha tenido una jefa mujer en toda su carrera profesional en empresas tecnológicas.

Sobre estos datos también habló Mariana Hernándezfundadora de Latinas in Tech, quien añadió que “las grandes cifras de desigualdad siguen presentes: el sector tecnológico suma apenas un 20% de empleabilidad femenina, mientras que otros campos como el marketing o la educación superan el 50% con facilidad”. En este sentido, Hernández cree que la educación temprana es importante “para poder empoderar a las niñas y que se sientan más seguras desde pequeñas en materias como las matemáticas”.

Una perspectiva que también compartió Paula Derrenger, Director of Growth de Ultralytics, quien también valoró la importancia de tener “roles a seguir dentro del sector para que las mujeres continúen creciendo en número y responsabilidad”.

Identificación instantánea gracias a Ultralytics YOLO

Por el escenario de YOLO Vision 2024 pasaron decenas de expertos en IA y directivos de grandes compañías tecnológicas que relataron a la audiencia algunos casos de uso prácticos de Ultralytics YOLO en sus aplicaciones y compañías. Uno de los más comentados fue el que expuso David Scott, fundador de la consultora norteamericana, The Main Branch, e impulsor de un proyecto que utiliza las imágenes recogidas por el modelo IA para detectar enfermedades de animales.

“Aunque ha sido un proceso difícil, gracias a Ultralytics YOLO hemos creado un sistema capaz de detectar una vaca o caballo enfermo de los 10.000que le hemos enseñado, con un éxito de acierto de más del 80% en el caso de los caballos y del 90% en el caso de las vacas”, expuso Scott, quien da especial relevancia a la medida de estos parámetros porque “tenemos que ser capaces de responder en caso de que la IA falle, ya que no sabemos qué impacto puede tener”.

Jim Griffin, profesor de la Universidad de Texas en Austin y fundador de AI Master Group, habló acerca de la identificación de animales gracias a Ultralytics YOLO, centrando su keynote en el uso de la arquitectura IA de Ultralytics para identificar tiburones blancos en las playas de California.

“Nuestro sistema SharkEye utiliza un dron con cámaras de alta resolución que graba el mar y envía alertas al personal de emergencia y a bañistas sobre la presencia de tiburones en el mar. Pero ¿cómo sabe el dron que lo que está viendo es un tiburón? Eso es posible gracias a Ultralytics YOLO”, destacó durante su intervención Griffin, además de revelar el trabajo y tiempo que lleva entrenar a una IA de este tipo. “Lo más duro de este proyecto no ha sido aplicar la Inteligencia Artificial, sino entrenar al modelo y hacer que el dron vuele y grabe más de 15.000 imágenes durante cinco años”.

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba